home *** CD-ROM | disk | FTP | other *** search
/ CICA 1995 August / CICA - The Ultimate Collection of Shareware for Windows (Disc 2) (August 1995).iso / disc2 / programr / atre27.exe / ATREE_27 / BEGINNER.TXT < prev    next >
Text File  |  1992-08-01  |  12KB  |  226 lines

  1.  
  2.     Beginner's introduction to the atree release 2.7
  3.     adaptive logic network (ALN) simulation software.
  4.  
  5. Welcome to logical neurocomputing and the atree release 2.7 software!
  6. This package will help you experiment with learning networks in ways
  7. that will instruct, and perhaps surprise you.  The package might even
  8. be adequate for building some industrial applications, but it is
  9. really intended for the researcher and experimenter.
  10.  
  11. Goals of neurocomputing.
  12.  
  13. The field of neurocomputing dates back to the 1940s, at least, and has
  14. many branches.  One particularly important division is into two
  15. groups: those whose goal it is to explain how animals' brains and
  16. nervous systems really work, and those who pursue other goals.  The
  17. latter group direct their efforts to solving artificial intelligence
  18. problems, like the control of robot motion or the exploitation of
  19. information in images or sounds, using whatever computing tools seem
  20. appropriate, whether biologically relevant or not.
  21.  
  22. It is the latter group that atree is meant for, those who want to
  23. engineer "intelligent" systems.  The word "intelligent" is placed in
  24. quotes here, simply because we have very limited expectations of what
  25. computers can "understand" today.  It would be exciting if ALNs held
  26. the secret of building "advanced neural network processors", as
  27. referred to in the recent film "Terminator II", but, alas, the most we
  28. can hope for is that logical neurocomputing may provide one small
  29. component of such future systems.  This might analogous to knowing how
  30. to fabricate transistors on a chip, but not knowing how to put them
  31. together to get a calculator.
  32.  
  33. Since people are very sensitive to "hype" in the area of neural
  34. networks, it is desirable not to promise anything until you have done
  35. it.  Fortunately, there are many demonstrations of practical
  36. application of neurocomputing today, so the field can exist without
  37. the hype of unrealistic promises.
  38.  
  39. How neurocomputing is applied today.
  40.  
  41. If you have just heard the term neural networks, but have never used
  42. one, then the following description will give you an idea what to
  43. expect from using this software.
  44.  
  45. Many problems cannot be completely solved by mathematical techniques,
  46. or by standard software development techniques, even though there may
  47. be a wealth of empirical data available.  Just having this data is
  48. often a good step towards solving the problem, and neural networks are
  49. an important tool in linking the data to the solution.
  50.  
  51. For example, consider a medical application where some measurement
  52. data related to symptoms, treatments and history are given for each
  53. person in a sample, together with a value indicating whether a certain
  54. disease was found present or not (after costly tests).  Suppose we
  55. want to find a simple relationship between the given data and the
  56. presence of the disease, which could lead to an inexpensive method for
  57. screening for the disease, or to an understanding of which factors are
  58. important for disease prevention.  If there are many factors, with
  59. complex interactions among them, the usual "linear" statistical
  60. techniques may be inappropriate.  In that case, one way of analysing
  61. data is by the use of neural networks, which can, in principle, find
  62. simple relationships by means of an adaptive learning procedure in
  63. very general circumstances.  Since the method uses only empirical
  64. data, very little human intervention may be required to obtain an
  65. answer, making the approach very easy to try out.  The MOSQUITO
  66. example included in the release, is an illustration.
  67.  
  68. Beyond applications in data analysis, such as the above, ANS are being
  69. used in an increasing number of applications where high-speed
  70. computation of functions is important.  For example, to correct an
  71. industrial robot's positioning to take into account the mass of an
  72. object it is holding would normally require time-consuming numerical
  73. calculations which are impossible to do in a real-time situation
  74. during use of the robot.  An ANS can learn the necessary corrections
  75. based on trial motions, and can perform the corrections in real time.
  76. It is not necessary to use all possible masses and motions during
  77. training, since ANS have the capacity to extrapolate smoothly to cases
  78. not presented in training.
  79.  
  80. Extremely high speed response is needed in electronic systems, when
  81. parameters have to be adjusted, as in automatic equalizers for
  82. communication links.  Other applications are in pattern recognition,
  83. sensor fusion, and sonar signal interpretation.
  84.  
  85. Can ALNs compute only logic functions?
  86.  
  87. No.  Although the networks are constructed using logical operations,
  88. it is important to realize that they can also be applied to functions
  89. of real values or integers by using appropriate encodings of reals or
  90. integers into logical vectors.  The results of logical computations
  91. are then decoded to obtain the real or integer results.  This feature
  92. has been included and improved in release 2.5.
  93.  
  94. Comparison between ANS in general and ALNs.
  95.  
  96. The most prevalent approach to neural network learning is the
  97. backpropagation algorithm and its variants.  Backpropagation depends
  98. on fast multiplications and additions, as well as table lookup of
  99. functions called sigmoids.  Special processors have been built to do
  100. ANS computations at high speed.  Some systems resort to analog chips
  101. for greater speed.
  102.  
  103. The ALN is a type of ANS that has been developed at the University of
  104. Alberta, following earlier work at Bell Telephone Laboratories and the
  105. Universite de Montreal.  It uses only simple logical functions such as
  106. AND, OR, and NOT.  Execution hardware is just an ordinary
  107. combinational logic circuit, a digital logic circuit without cycles or
  108. delay units.  A learning system of this kind we call an adaptive logic
  109. network (ALN).  The atree software is a simulator for ALNs.
  110.  
  111. The ALN approach is an extremely simplified version of the
  112. backprogagation approach -- with some enhanced heuristics for
  113. learning.  Though simple, it can replace backpropagation in many
  114. situations.  Where we expect ALNs to be of particular use is in two
  115. situations: when one needs to solve some pattern recognition problem
  116. at very high speed, or when one is restricted to using a computer with
  117. very limited processing power (for example a personal computer with no
  118. math co-processor).  We think all PC users will be pleased with the
  119. potentially faster learning and execution ALNs offer them.
  120.  
  121. Comparisons with the description of a commercial processor using
  122. standard ANS suggested that hardware based on ALNs could evaluate
  123. functions several orders of magnitude faster, and would be in the
  124. trillion connections per second range.  (A connection is a
  125. multiply-add operation, and in a NAND (NOT_AND) gate, this is a
  126. special case which can be done at very high speed, e. g. 2 nanoseconds
  127. or less.  The computation time for a tree is proportional to its
  128. depth, not its size.)
  129.  
  130. Another advantage of the logic networks is that most of a computation
  131. can often be left out.  For example if a logical zero is input to an
  132. AND-node in a logical tree, then the output of the node can be
  133. computed without computing the other input, or even knowing the inputs
  134. which give rise to it.  This produces no speedup in a completely
  135. parallel system, however in systems running on ordinary processors, or
  136. in systems which re-use any ANS special hardware sequentially (the
  137. usual case), it is of critical importance for speed.  Systems which
  138. combine special hardware parallelism with the possibility of leaving
  139. out unnecessary computations are using "parsimonious parallelism".  A
  140. small amount of such parsimony applies to ordinary ANS, but in a
  141. logical network, the speedup produced can amount to many orders of
  142. magnitude, which confers a great advantage on this approach vis-a-vis
  143. the usual one.  The "fast-tree" feature, new to release 2.5, turns
  144. pattern recognition problems into traversal of a binary decision tree.
  145.  
  146. The backpropagation technique for training standard ANS is quite slow.
  147. The simulation of ALN learning should prove fast enough in many
  148. situations, and we hope will prove satisfactory even on personal
  149. computers.  Parsimony plays an important role in learning too.
  150.  
  151. There is a hardware architecture for training adaptive logic networks
  152. which would make on-line learning quite feasible.  A high-speed
  153. adaptive processor will soon, we hope, eliminate long waits for
  154. convergence of training for all but the most difficult tasks.  It will
  155. process patterns at a rate of 25 million per second!  All the learning
  156. tasks we have tried so far would finish in a small fraction of a
  157. second.  This possibility will undoubtedly open up completely new
  158. fields of application for ALNs.
  159.  
  160. Acknowledgment.
  161.  
  162. The production of this package was done mainly by Andrew Dwelly, Rolf
  163. Manderscheid and Monroe Thomas, to whom I am very grateful for their
  164. dedicated work.  They only sought other employment when faced with the
  165. alternative of starvation.  Important contributions have been made by
  166. many others, including Scott Reynolds, Dekang Lin, and Jiandong Liang.
  167. Financial support came from the Natural Sciences and Engineering
  168. Research Council of Canada.  It has supported this type of work on and
  169. off for over twenty three years, which I acknowledge with thanks.
  170.  
  171. Future developments.
  172.  
  173. What we have been able to incorporate into release 2.5 just scratches
  174. the surface of the possibilities for ALNs.  Unfortunately, all my
  175. current research money has been spent on the above high-quality
  176. programming talent, and those people have now moved on to other jobs.
  177. Rolf Manderscheid and Monroe Thomas have kindly agreed to help with
  178. getting any remaining bugs out of release 2.5 for the Unix and PC
  179. versions respectively however.
  180.  
  181. Release 2.7 will be the last research-oriented one.  Because the
  182. difficulties of getting adequate support for research into ALNs in
  183. Canada appear insurmountable, it is time for this technology to leave
  184. the research nest and fly on its own.  I am convinced it is a winner,
  185. and that some of you will take up the challenge of making it work for
  186. you.  If someone succeeds in developing a commercial prototype based
  187. on the software, I expect commercial licensing of that derived program
  188. would be possible, but details would have to be discussed with the
  189. authors and the lawyers at the U. of A.  If someone wanted to develop
  190. a more advanced system, which some of our research has shown to be
  191. possible, that is a question of providing funding.  The development of
  192. the high-speed hardware adaptive processor, the "jewel" of the entire
  193. ALN technology, is up for grabs, and would be along the more advanced
  194. lines alluded to above.  If there is some government agency or
  195. commercial organization that would be interested, something could be
  196. done there.
  197.  
  198. Until the advent of commercial software and harware, I extend my best
  199. wishes for success in using the atree release 2.7 package!  Please try
  200. a few experiments by just changing the given sample programs first.
  201. After you gain confidence, I hope you will try some really exciting
  202. projects.  Please let me know about your experiences, so future
  203. adaptive logic networks can be better.
  204.  
  205. Bill Armstrong
  206.  
  207.  
  208. Address:
  209.  
  210.     Professor William W. Armstrong
  211.     Department of Computing Science
  212.     University of Alberta
  213.     Edmonton, Alberta
  214.     Canada
  215.     T6G 2H1
  216.     Tel. (403) 492 2374
  217.     FAX: (403) 492 1071
  218.     email: arms@cs.ualberta.ca
  219.  
  220. Note: If you can't obtain atree release 2.7 from a friend or through 
  221. ftp from menaik.cs.ualberta.ca [129.128.4.241] in pub/atre27.exe, you
  222. can order it by mail.  The programs for both Unix (TM AT&T) and PC
  223. versions and documentation, including previously published papers and 
  224. some unpublished ones, will be mailed to you upon payment of $150 
  225. (Canadian), made payable to the University of Alberta.
  226.